近年来,由于深度学习体系结构的有希望的进步,面部识别系统取得了非凡的成功。但是,当将配置图像与额叶图像的画廊匹配时,它们仍然无法实现预期的准确性。当前方法要么执行姿势归一化(即额叶化)或脱离姿势信息以进行面部识别。相反,我们提出了一种新方法,通过注意机制将姿势用作辅助信息。在本文中,我们假设使用注意机制姿势参加的信息可以指导剖面面上的上下文和独特的特征提取,从而进一步使嵌入式域中的更好表示形式学习。为了实现这一目标,首先,我们设计了一个统一的耦合曲线到额定面部识别网络。它通过特定于类的对比损失来学习从面孔到紧凑的嵌入子空间的映射。其次,我们开发了一个新颖的姿势注意力块(PAB),以专门指导从剖面面上提取姿势 - 不合稳定的特征。更具体地说,PAB旨在显式地帮助网络沿着频道和空间维度沿着频道和空间维度的重要特征,同时学习嵌入式子空间中的歧视性但构成不变的特征。为了验证我们提出的方法的有效性,我们对包括多PIE,CFP,IJBC在内的受控和野生基准进行实验,并在艺术状态下表现出优势。
translated by 谷歌翻译
在本文中,我们试图在抽象嵌入空间中绘制额叶和轮廓面图像之间的连接。我们使用耦合编码器网络利用此连接将额叶/配置文件的面部图像投影到一个常见的潜在嵌入空间中。提出的模型通过最大化面部两种视图之间的相互信息来迫使嵌入空间中表示的相似性。拟议的耦合编码器从三个贡献中受益于与极端姿势差异的匹配面。首先,我们利用我们的姿势意识到的对比学习来最大程度地提高身份额叶和概况表示之间的相互信息。其次,由在过去的迭代中积累的潜在表示组成的内存缓冲区已集成到模型中,因此它可以比小批量大小相对较多的实例。第三,一种新颖的姿势感知的对抗结构域适应方法迫使模型学习从轮廓到额叶表示的不对称映射。在我们的框架中,耦合编码器学会了扩大真实面孔和冒名顶替面部分布之间的边距,这导致了相同身份的不同观点之间的高度相互信息。通过对四个基准数据集的广泛实验,评估和消融研究来研究拟议模型的有效性,并与引人入胜的最新算法进行比较。
translated by 谷歌翻译
预审前的语言模型(LMS)易于生成具有非事实信息的文本。在这项工作中,我们测量并提高了开放式文本生成的大规模LMS的事实准确性。我们设计了FactualityPrompts测试集和指标,以衡量LM世代的事实。基于此,我们研究了参数尺寸范围从126m到530b不等的LMS的事实准确性。有趣的是,我们发现较大的LM比较小的LM更为事实,尽管先前的研究表明,在误解方面较大的LMS可能不太真实。此外,开放式文本生成中流行的采样算法(例如,顶级P)可能会损害由于每个采样步骤中引入的“均匀随机性”,因此损害了事实。我们提出的事实核采样算法会动态适应随机性,以改善发电的事实,同时保持质量。此外,我们分析了从事实文本语料库(例如Wikipedia)学习实体之间正确关联的标准培训方法的效率低下。我们提出了一种事实增强的培训方法,该方法使用topicprefix更好地意识到事实和句子完成作为培训目标,这可以大大减少事实错误。
translated by 谷歌翻译
冷冻电子断层扫描(Cryo-et)是一种3D成像技术,可以在近原子分辨率下原位地置于亚细胞结构。细胞冷冻剂图像有助于解决大分子的结构并在单个细胞中确定它们的空间关系,这对细胞和结构生物学具有广泛的意义。体摩数分类和识别构成了这些大分子结构的系统恢复的主要步骤。已被证明监督深度学习方法对重组分类进行高度准确和高效,而是由于缺乏注释数据而受到有限的适用性。虽然生成用于训练监督模型的模拟数据是潜在的解决方案,但与真实实验数据相比,生成数据中的图像强度分布的相当差异将导致训练有素的模型在预测真实错误谱图上预测类别中的差。在这项工作中,我们呈现了低温,一个完全无监督的域适应和随机化框架,用于深入学习的跨域重组分类。我们使用无监督的多逆境域适应来减少模拟和实验数据的特征之间的域移位。我们使用“翘曲”模块开发网络驱动的域随机化过程,以改变模拟数据,并帮助分类器在实验数据上更好地推广。我们不使用任何标记的实验数据来训练我们的模型,而一些现有的替代方法需要标记为跨域分类的实验样本。然而,在本文在本文中,使用两种模拟和实验数据在本文中显示的广泛评估研究中的横域重组分类中现有的替代方法的优先效果优异。
translated by 谷歌翻译
Bayesian optimization is an effective methodology for the global optimization of functions with expensive evaluations. It relies on querying a distribution over functions defined by a relatively cheap surrogate model. An accurate model for this distribution over functions is critical to the effectiveness of the approach, and is typically fit using Gaussian processes (GPs). However, since GPs scale cubically with the number of observations, it has been challenging to handle objectives whose optimization requires many evaluations, and as such, massively parallelizing the optimization.In this work, we explore the use of neural networks as an alternative to GPs to model distributions over functions. We show that performing adaptive basis function regression with a neural network as the parametric form performs competitively with state-of-the-art GP-based approaches, but scales linearly with the number of data rather than cubically. This allows us to achieve a previously intractable degree of parallelism, which we apply to large scale hyperparameter optimization, rapidly finding competitive models on benchmark object recognition tasks using convolutional networks, and image caption generation using neural language models.
translated by 谷歌翻译